Stellenbeschreibung Für unseren namhaften Kunden in Norddeutschland suchen wir einen versierten Senior Data Engineer (m/w/d) am Standort Hamburg. Die Stelle ist ab sofort in Vollzeit 40 h/Wo sowie im Rahmen der Arbeitnehmerüberlassung mit der Option auf Übernahme zu besetzen.
Stellenbeschreibung Bestreiten Sie mit uns den Weg nach oben Wir suchen für die Standorte München, Stuttgart, Nürnberg und Augsburg. Deine Aufgaben: Entwicklung und Implementierung von Algorithmen und Modellen zur DatenanalyseExtraktion, Transformation und Laden von Daten aus verschiedenen QuellenAnalyse großer Datensätze zur Identifikation von Trends und MusternErweiterungen und Verbesserungen von bestehenden DatenpipelinesAnalyse und Bereinigung von DatensätzenErstellung von prädiktiven Modellen für GeschäftsprognosenZusammenarbeit mit verschiedenen Abteilungen zur Integration von Datenanalysen in GeschäftsprozesseKontinuierliche Evaluierung und Verbesserung der bestehenden ModelleKommunikation von Ergebnissen und Erklärung von Datenanalysen gegenüber nicht-technischen Stakeholdern Dein Profil: Abgeschlossenes Studium im Bereich Datenwissenschaft, Informatik, Statistik oder vergleichbare QualifikationErfahrung in der Anwendung von Datenanalysetechniken und -toolsProgrammierkenntnisse, wie beispielsweise Python oder RKenntnisse in Machine Learning und statistischen MethodenErfahrung mit Datenbanken und DatenvisualisierungstoolsAnalytisches Denkvermögen und ProblemlösungsfähigkeitenTeamfähigkeit und gute KommunikationsfähigkeitenSelbstständige und ergebnisorientierte ArbeitsweiseGute Deutsch- und Englischkenntnisse Was wir bieten: Zukunftsperspektiven in einem innovativen, wachsenden und agilen UnternehmenEin spannendes Arbeitsumfeld mit vielfältigen KarrierechancenEin tarifliches/ übertarifliches GehaltFlexible Arbeitszeiten sowie mobiles Arbeiten30 Urlaubstage pro Jahr und Sonderurlaub für besondere Anlässe bei Anstellung bei Xtended EngineeringBonusprogramme für Empfehlung und MitarbeiterwerbungTeamevents XTENDED ENGINEERING GmbH bringt qualifizierte Ingenieure mit Unternehmen aus der Industrie und Wirtschaft zusammen.
In der Zentralfunktion „Zeppelin IT“ der Zeppelin GmbH am Standort Garching bei München suchen wir zum nächstmöglichsten Zeitpunkt einen „Data Engineer (m/w/d)“. Darauf hast Du Lust: In deiner Rolle als „Data Engineer (m/w/d)“ bist Du verantwortlich für die Entwicklung, Pflege und Optimierung von Dateninfrastrukturen und -prozessen.
Aktuell arbeiten mehr als 500 Mitarbeiter*innen an folgenden Standorten für uns: Leipzig (Internationaler Hauptsitz)KölnItalienWir suchen Menschen, die mit Leidenschaft und Engagement ihre vielseitigen Fähigkeiten zur Realisierung innovativer Batteriespeicherlösungen einbringen und unsere Produkte noch leistungsfähiger und attraktiver machen.
Designing and implementing the ETL pipeline and MongoDB schemeManaging the document database, data curation, and FAIRification (cleaning, parsing, disambiguation, deduplication, data harmonization etc.), including ongoing database maintenanceIntegrating new data sources, including the development of robust parsers and text cleaning workflowsEnhancing the user experience (e.g., building a data warehouse and APIs)User support for utilizing RoMine datasets (documentation, training, use case support) Data engineering, data warehousing, and database experienceExperience with NoSQL/MongoDB databaseExperience or knowledge of ETL orchestration tools, such as AirflowGood understanding in the area of Text Analytics/Mining, TDM, and LLMsStrong proficiency in Python scripting Internal career opportunities World-renowned pharmaceutical company Ihr Kontakt Referenznummer 864194/1 Kontakt aufnehmen Telefon:+41 44 225 50 00 E-Mail: positionen@hays.ch Anstellungsart Freiberuflich für ein Projekt
Neben der bundesweitern Belieferung statten wir unsere Kunden auch mit Technik, Großküchenausstattung und IT-Systemlösungen aus. Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Engineer (m/w/d) Deine Aufgaben Du konzipierst, entwickelst und wartest Datenintegrations- und Modellierungsprozesse im Data Warehouse Du erstellst Konzepte für Daten-Architekturen (u.a. zur Umsetzung von Datenvisualisierungen) Du unterstützt die Fachbereiche bei der Umsetzung von Anforderungen Du setzt Berechtigungskonzepte um Zusätzlich erarbeitest Du mit dem gesamten Business Intelligence (BI) Team Ideen zur Verbesserung und Weiterentwicklung unserer BI-Systeme Dein Profil Basic: Du hast eine Ausbildung, ein Studium oder eine vergleichbare Berufserfahrung und gute IT-Kenntnisse.
Designing and implementing the ETL pipeline and MongoDB scheme Managing the document database, data curation, and FAIRification (cleaning, parsing, disambiguation, deduplication, data harmonization etc.), including ongoing database maintenance Integrating new data sources, including the development of robust parsers and text cleaning workflows Enhancing the user experience (e.g., building a data warehouse and APIs) User support for utilizing RoMine datasets (documentation, training, use case support) Data engineering, data warehousing, and database experience Experience with NoSQL/MongoDB database Experience or knowledge of ETL orchestration tools, such as Airflow Good understanding in the area of Text Analytics/Mining, TDM, and LLMs Strong proficiency in Python scripting Internal career opportunities World-renowned pharmaceutical company Ihr Kontakt Referenznummer 864194/1 Kontakt aufnehmen Telefon:+41 44 225 50 00 E-Mail: positionen@hays.ch Anstellungsart Freiberuflich für ein Projekt
Stellenbeschreibung Für unseren namhaften Kunden in Norddeutschland suchen wir einen erfahrenen Data Engineer (m/w/d) für den Standort Nähe Bremen. Die Stelle ist ab sofort in Vollzeit 40 h/Wo sowie im Rahmen der Arbeitnehmerüberlassung mit der Option auf Übernahme zu besetzen.
Neben der bundesweitern Belieferung statten wir unsere Kunden auch mit Technik, Großküchenausstattung und IT-Systemlösungen aus. Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Engineer (m/w/d) Deine Aufgaben Du konzipierst, entwickelst und wartest Datenintegrations- und Modellierungsprozesse im Data Warehouse Du erstellst Konzepte für Daten-Architekturen (u.a. zur Umsetzung von Datenvisualisierungen) Du unterstützt die Fachbereiche bei der Umsetzung von Anforderungen Du setzt Berechtigungskonzepte um Zusätzlich erarbeitest Du mit dem gesamten Business Intelligence (BI) Team Ideen zur Verbesserung und Weiterentwicklung unserer BI-Systeme Dein Profil Basic: Du hast eine Ausbildung, ein Studium oder eine vergleichbare Berufserfahrung und gute IT-Kenntnisse.
Um unsere Prozesse, Systeme und Geschäftsmodelle zukunftsfähig zu gestalten, suchen wir dich für unser Digitalisierungsteam. Wir treiben die digitale Transformation im Unternehmen voran - von der Automatisierung interner Abläufe bis hin zu datenbasierte Entscheidungen
Um unsere Prozesse, Systeme und Geschäftsmodelle zukunftsfähig zu gestalten, suchen wir dich für unser Digitalisierungsteam. Wir treiben die digitale Transformation im Unternehmen voran - von der Automatisierung interner Abläufe bis hin zu datenbasierte Entscheidungen
Google Dialogflow, IBM Watson..) ·Experience with cloud services such as AWS, GCP or Azure ·Knowledge of Agile / DevOps software development (GitOps is a plus)
Ideen können sich wandeln. Wir sind beweglich und spontan. Für unser Team in Hamburg suchen wir zum nächstmöglichen Zeitpunkt eine*n Junior Data Engineer (m/w/d) Du willst das. Du integrierst strukturierte und unstrukturierte Daten aus unterschiedlichen Quellen in unsere Analyseumgebungen und baust damit eine verlässliche Single Source of Truth auf.
Zur Verstärkung unseres Teams suchen wir einen Data & AI Engineer (m/w/d). Die Position ist zentral am Hauptsitz in Augsburg organisiert. Machen Sie den nächsten Karriereschritt bei uns und unterstützen Sie unser Team zum nächstmöglichen Zeitpunkt.Was bringen Sie mit?
Du glänzt sowohl im Bereich KI als auch im Software Engineering? Du bist bereit für den nächsten Schritt und suchst einen Ort, an dem du in einer dynamischen und unterstützenden Umgebung weiter wachsen und dich entwickeln kannst? Dann schließe dich uns an und werde Teil unserer Mission!
OpenAPI) • 5+ years of experience in overall software development lifecycle • Familiarity with using CD/CI tooling such as Git, Jenkins and Maven • Passion about great customer experience • Good communication skills to sometimes explain your work to a non-technical audience • Excellent written and spoken English; we’re an international team An ideal candidate would also have: • Basic knowledge of Virtual Assistant technologies (e.g.
Zur Unterstützung unserer Agenden in der Digitalisierung, sind wir auf der Suche nach Senior Software Engineer*innen. Es werden Teamplayer*innen und kreative Mitgestalter*innen gesucht. In erster Linie geht es darum bei der Entwicklung von internen Tools und Prototypen tatkräftig mitzuwirken.
Desirable knowledge in Java/.net. Knowledge of security protocols and devices such as stateful firewall, IPS, VPN, IPSec, TLS and L2-4 security. Strong initiative and hands-on mentality Strong communication and teamwork skills paired with intercultural competence.
MID – Driving Continuous Transformation Für spannende Projekteinsätze bei unseren Kunden suchen wir erfahrene Consultants mit BI Expertise.In Deiner Position als Senior Consultant Data Warehouse / Senior Data Analyst erwarten Dich abwechslungsreiche und anspruchsvolle Tätigkeiten entlang des gesamten Prozesses der Softwareentwicklung in Projekteinsätzen bei unseren KundenEigenverantwortlich stimmst Du die unterschiedlichen Anforderungsspezifikationen mit unseren Kunden und Fachabteilungen ab, analysierst und konzipierst die Datenaufbereitungsprozesse von der Schnittstelle bis hin zur KennzahlDabei beschäftigst Du Dich mit der Entwicklung/Aufbau von relationalen und multidimensionalen Datenbanken mit dem Ziel eines einheitlichen DatenbestandesDu optimierst bestehende Systemlösungen im Kontext Data WarehouseDu gestaltest die Architektur und das Design des Data Warehouse und entwickelst moderne Lösungen für ein Datenmodell.Du hast ein Studium im Bereich (Wirtschafts-)Informatik oder einem anderen Studiengang mit IT und/oder Informatik Fokus abgeschlossen, alternativ verfügst du über eine vergleichbare Qualifikation mit entsprechender IT-Affinität und bestenfalls Bezug zu ControllingDu bringst mindestens 5 Jahre Berufserfahrung in agilen Business Intelligence- oder in Data Warehouse-Projekten mit und bist dabei mit der Umsetzung von DSGVO-konformen DWH-Lösungen in Berührung gekommen.Du verfügst über Berufserfahrung im Design von ETL-Prozessen und Datenstrukturen, insbesondere im Umgang mit sehr großen Datenmengen und bist sicher im Umgang mit SQLMehrjährige Erfahrung in der Konzeption von ETL/ELT-Prozessen sowie ein Bewusstsein für DWH-Architekturen zeichnen dich aus.Du bringst Erfahrung in der Gestaltung von Schnittstellen zum DWH mit und hast bestenfalls bereits eventbasierte Schnittstellen mit Apache Kafka designt.Du überzeugst uns mit konzeptionellen Fähigkeiten und einem prozessualen und analytischen Denkvermögen und verfügst über verhandlungssichere Deutschkenntnisse.
Working in an interdisciplinary team of engineers to develop and improve designs and manufacturing processes for thick film sensors Improve and maintain the data infrastructure and pipeline for production and process control data from various sources and ensure timely data availability Act as a technical interface between R&D and Production and between various R&D departments to harmonize data handling and standards Improve and maintain data visualization tools (dashboards, interactive charts) and support in routine data analysis Support in defining and improving image analysis methods and tools to derive quantitative feature values from images Extend the data infrastructure with additional information, e.g. from sensor performance characterization Data driven improvements of manufacturing processes Completed technical training in process engineering, data science, bioinformatics, or similar professional education Professional experience in industrial R&D or manufacturing environment, ideally in the medical device industry or a comparable regulated environment Experience in building and maintaining data pipelines (ETL processes) from diverse sources such as SQL databases, CSV, and machine log files Ability to create interactive dashboards and visualization tools with a solid understanding of applied statistics (e.g. correlation analysis, cluster analysis) to support the development teams Skills in digital image processing, object-oriented programming (OOP) in Python, and knowledge of SQL are a strong advantage, adding significant value to this opportunity Good communication skills in a multicultural and multidisciplinary environment A thorough way of working and documentation Motivated team player with passion in promoting and driving fast-paced and ambitious projects Aptitude to understand and improve the underlying technical processes Proficiency in both English and German Unlimited project contract Fascinating, innovative environment in an international atmosphere Ihr Kontakt Ansprechpartner Jannik Fabio Eichin Referenznummer 865639/1 Kontakt aufnehmen E-Mail: jannik.eichin@hays.ch Anstellungsart Freiberuflich für ein Projekt
Design and implement a SQL-based landing zone for regulatory dataDevelop stored procedures for transformation, enrichment, and aggregationBuild and operate high-volume batch processing chains for monthly/quarterly cyclesImplement SSIS-based ingestion flows and job orchestrationEnsure data quality, technical lineage, and full traceability across layersDefine and document integration patterns and mapping logic between landing-zone datasets and Tagetik-based reporting templatesPerform operational monitoring, troubleshooting, and performance optimization Strong expertise in Microsoft SQL Server and T-SQLHands-on experience with stored-procedure-driven ETL and complex data modelsSolid SSIS skills for orchestration and control of processing chainsExperience with batch processing, logging, restartability, and performance tuningKnowledge of data lineage, reconciliation, and regulatory processing needsExperience with reporting platforms such as Tagetik is a plusFamiliarity with Oracle source systems is advantageous Renowned ClientRemote Option Ihr Kontakt Ansprechpartner Eliška Stejskalová Referenznummer 862801/1 Kontakt aufnehmen E-Mail: eliska.stejskalova@hays.at Anstellungsart Freiberuflich für ein Projekt
Design and implement a SQL-based landing zone for regulatory data Develop stored procedures for transformation, enrichment, and aggregation Build and operate high-volume batch processing chains for monthly/quarterly cycles Implement SSIS-based ingestion flows and job orchestration Ensure data quality, technical lineage, and full traceability across layers Define and document integration patterns and mapping logic between landing-zone datasets and Tagetik-based reporting templates Perform operational monitoring, troubleshooting, and performance optimization Strong expertise in Microsoft SQL Server and T-SQL Hands-on experience with stored-procedure-driven ETL and complex data models Solid SSIS skills for orchestration and control of processing chains Experience with batch processing, logging, restartability, and performance tuning Knowledge of data lineage, reconciliation, and regulatory processing needs Experience with reporting platforms such as Tagetik is a plus Familiarity with Oracle source systems is advantageous Renowned Client Remote Option Ihr Kontakt Ansprechpartner Eliška Stejskalová Referenznummer 862801/1 Kontakt aufnehmen E-Mail: eliska.stejskalova@hays.at Anstellungsart Freiberuflich für ein Projekt
Working in an interdisciplinary team of engineers to develop and improve designs and manufacturing processes for thick film sensorsImprove and maintain the data infrastructure and pipeline for production and process control data from various sources and ensure timely data availabilityAct as a technical interface between R&D and Production and between various R&D departments to harmonize data handling and standardsImprove and maintain data visualization tools (dashboards, interactive charts) and support in routine data analysisSupport in defining and improving image analysis methods and tools to derive quantitative feature values from imagesExtend the data infrastructure with additional information, e.g. from sensor performance characterizationData driven improvements of manufacturing processes Completed technical training in process engineering, data science, bioinformatics, or similar professional educationProfessional experience in industrial R&D or manufacturing environment, ideally in the medical device industry or a comparable regulated environmentExperience in building and maintaining data pipelines (ETL processes) from diverse sources such as SQL databases, CSV, and machine log filesAbility to create interactive dashboards and visualization tools with a solid understanding of applied statistics (e.g. correlation analysis, cluster analysis) to support the development teamsSkills in digital image processing, object-oriented programming (OOP) in Python, and knowledge of SQL are a strong advantage, adding significant value to this opportunityGood communication skills in a multicultural and multidisciplinary environment A thorough way of working and documentationMotivated team player with passion in promoting and driving fast-paced and ambitious projectsAptitude to understand and improve the underlying technical processesProficiency in both English and German Unlimited project contractFascinating, innovative environment in an international atmosphere Ihr Kontakt Ansprechpartner Jannik Fabio Eichin Referenznummer 865639/1 Kontakt aufnehmen E-Mail: jannik.eichin@hays.ch Anstellungsart Freiberuflich für ein Projekt
Um unsere Prozesse, Systeme und Geschäftsmodelle zukunftsfähig zu gestalten, suchen wir dich für unser Digitalisierungsteam. Wir treiben die digitale Transformation im Unternehmen voran - von der Automatisierung interner Abläufe bis hin zu datenbasierte Entscheidungen
Your Profile Bachelor’s degree in Computer Science, Information Technology, or a related discipline.At least 4 years of experience in CMDB administration and ITSM process management.Strong understanding of IT service management frameworks, particularly ITIL.Hands-on experience with Configuration Management in ServiceNow.Solid knowledge of IT infrastructure, network architecture, and databases such as Microsoft SQL.Proficiency in data analysis and the creation of reports and dashboards.Excellent problem-solving skills and the ability to work independently with a focus on priorities.Strong communication and interpersonal skills.Ability to effectively train and educate others.Enthusiasm for learning and exploring new topics.Proficiency in English.
Aufbau einer Log-Ingestion- und Parsing-Pipeline für mehrgigabytegroße Archive (ZIP/XML/JSON/Windows-Event-Logs), um normalisierte Ereignisdaten zu erzeugen Ereigniskorrelation und Datenanreicherung (zeitliche Sortierung, korrelierte Events aus unterschiedlichen Quellen, unscharfer Abgleich mit einer Fehler-/FMEA-Wissensdatenbank) Entwicklung einer Embedding- und Hybrid-Retrieval-Pipeline (Azure OpenAI Embeddings + Keyword-Suche + Vektor-Suche) mit klar definierten Zielen für Latenz und Durchsatz Durchführung von Datenqualitätsprüfungen (Schema-Validierung, Encoding-Checks, Erkennung von Duplikaten) sowie Erstellung einer präzisen technischen Übergabedokumentation Erfahrung in Implementierung von ETL/ELT-Prozessen in Python zur Verarbeitung großer und heterogener Log-Datenmengen Kenntnisse Design von Schemas und Datenmodellen für normalisierte Events und Wissensbank-Dokumente (JSON/JSONL + SQL) Aufbau/Optimierung von Vektorindex-Sammlungen und Relevanzbewertungen (BM25/TF-IDF + Cosine Similarity) Performance-Optimierung (Batching, Caching) und Bereitstellung wartbaren Codes inkl.
Stellenbeschreibung Sie sind auf der Suche nach mehr als nur einem Job - Sie möchten einen Ort finden, an dem Ihre Fähigkeiten nicht nur gefragt, sondern auch wertgeschätzt werden?
Konzeption und Implementierung moderner Datenarchitekturen für Anwendungen wie semantische Suche, Knowledge-Management und Text-to-SQL Anforderungsanalyse und -definition und Entwicklung skalierbarer Daten- und KI-Lösungen in enger Zusammenarbeit mit Kund/innen Implementierung von Datenpipelines und -infrastrukturen für große Mengen strukturierter und unstrukturierter Daten Sicherstellen der Datenqualität, Sicherheit und Governance und Erarbeitung von Best Practices Aufbau und Betrieb skalierbarer Cloud-Infrastrukturen, automatisiere Deployments und Monitoring Strategische Beratung zu Datenarchitekturen, Technologien und Tools Aktiver Wissenstransfer im Team zur Weiterentwicklung des Data Engineerings anhand moderner NLP-Ansätzen wie LLMs, Embeddings, Knowledge Graphs und RAG Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare Ausbildung Einschlägige Berufserfahrung in Data Engineering und idealerweise auch Data Architecture Sehr gute Kenntnisse in der Programmierung mit Python, SQL und Shell Sicherer Umgang mit Infrastructure-as-Code, z.B.
Konzeption und Implementierung moderner Datenarchitekturen für Anwendungen wie semantische Suche, Knowledge-Management und Text-to-SQLAnforderungsanalyse und -definition und Entwicklung skalierbarer Daten- und KI-Lösungen in enger Zusammenarbeit mit Kund/innen Implementierung von Datenpipelines und -infrastrukturen für große Mengen strukturierter und unstrukturierter Daten Sicherstellen der Datenqualität, Sicherheit und Governance und Erarbeitung von Best PracticesAufbau und Betrieb skalierbarer Cloud-Infrastrukturen, automatisiere Deployments und MonitoringStrategische Beratung zu Datenarchitekturen, Technologien und ToolsAktiver Wissenstransfer im Team zur Weiterentwicklung des Data Engineerings anhand moderner NLP-Ansätzen wie LLMs, Embeddings, Knowledge Graphs und RAG Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare AusbildungEinschlägige Berufserfahrung in Data Engineering und idealerweise auch Data ArchitectureSehr gute Kenntnisse in der Programmierung mit Python, SQL und ShellSicherer Umgang mit Infrastructure-as-Code, z.B.
Aufbau einer Log-Ingestion- und Parsing-Pipeline für mehrgigabytegroße Archive (ZIP/XML/JSON/Windows-Event-Logs), um normalisierte Ereignisdaten zu erzeugenEreigniskorrelation und Datenanreicherung (zeitliche Sortierung, korrelierte Events aus unterschiedlichen Quellen, unscharfer Abgleich mit einer Fehler-/FMEA-Wissensdatenbank)Entwicklung einer Embedding- und Hybrid-Retrieval-Pipeline (Azure OpenAI Embeddings + Keyword-Suche + Vektor-Suche) mit klar definierten Zielen für Latenz und DurchsatzDurchführung von Datenqualitätsprüfungen (Schema-Validierung, Encoding-Checks, Erkennung von Duplikaten) sowie Erstellung einer präzisen technischen Übergabedokumentation Erfahrung in Implementierung von ETL/ELT-Prozessen in Python zur Verarbeitung großer und heterogener Log-DatenmengenKenntnisse Design von Schemas und Datenmodellen für normalisierte Events und Wissensbank-Dokumente (JSON/JSONL + SQL)Aufbau/Optimierung von Vektorindex-Sammlungen und Relevanzbewertungen (BM25/TF-IDF + Cosine Similarity)Performance-Optimierung (Batching, Caching) und Bereitstellung wartbaren Codes inkl.
Lass dich von uns empfehlen und profitiere von dem Zugang zu unveröffentlichten Stellenangeboten unserer Auftraggeber. Wir suchen im Rahmen der Direktvermittlung. Deine Aufgaben Sie analysieren bestehende aktuarielle Prozesse rund um Reserveanalysen, Abschlüsse nach IFRS und Solvency II sowie Planung und ReportingSie entwickeln und implementieren technische Lösungen zur Automatisierung von ArbeitsabläufenSie identifizieren Potenziale zur Prozessoptimierung und setzen diese aktiv um z.B. mit gängigen Programmiersprachen und DatenbanksystemenSie arbeiten standortübergreifend mit Teams in Frankfurt und Köln sowie mit anderen (inter-)nationalen Einheiten des Unternehmens zusammen Ihre Arbeit bietet Ihnen eine abwechslungsreiche Mischung aus technischer Entwicklung, Analyse und Zusammenarbeit mit verschiedenen Teams Deine Fähigkeiten Sie haben eine Leidenschaft für Prozesse, Daten und Zahlen und begeistern sich für neue TechnologienSie haben Berufserfahrung als Data Scientist oder Data Engineer, idealerweise im (aktuariellen) VersicherungsumfeldSie können Erfolge in der Prozessoptimierung und -automatisierung nachweisenSie programmieren gerne und haben vertiefte Kenntnisse in modernen Programmiersprachen wie R, Python oder SQLSie arbeiten eigenverantwortlich und strukturiert, sind teamfähig und treten souverän aufSie haben ein erfolgreich abgeschlossenes Studium in Data Science, Mathematik oder einem vergleichbaren FachgebietSie besitzen gute Excel-Kenntnisse; aktuarielle Grundkenntnisse sind von VorteilSie sprechen sehr gutes Deutsch und Englisch in Wort und Schrift.
Du möchtest in einem der am schnellsten wachsenden Healthcare-Unternehmen weltweit datengetriebene Entscheidungen vorantreiben und die Weiterentwicklung unserer Business-Intelligence-Plattform maßgeblich mitgestalten? Dann bist Du bei uns genau richtig! Wir suchen ab sofort einen Data & Business Intelligence Manager (w/m/d), der mit analytischem Scharfsinn, technischem Know-how und Teamgeist die Datenqualität verbessert, Prozesse automatisiert und das Management mit fundierten Analysen und Berichten unterstützt.
In der Zentralfunktion Group IT Services in der Abteilung Integration (Bereich Data Management) suchen wir zum nächstmöglichen Zeitpunkt einen "Senior Integration Engineer (m/w/d)" zur Gestaltung unserer Integrationslandschaft.
Please note on this occasion we are unable to provide sponsorship for visa applicants for this post, as such applicants must hold the right to work in the UK to be eligible. How to apply Please apply via this link: Andor Technology - Oxford Instruments Careers (oxinst.com) Informal enquiries or to request a full role profile please contact Louise Dooley Senior Talent Acquisition Specialist via email to louise.dooley@oxinst.com Why Oxford Instruments Andor?
YOUR TASKS: Independently plan, structure, and execute technically complex aerodynamic design projects, including the development of new rotor blades and the detailed analysis of legacy designs Applying advanced fluid dynamics principles, leveraging high-fidelity simulation tools, and integrating multidisciplinary constraints to achieve optimal aerodynamic performance Development and continues improvement of prediction methods and industrialization of research approaches and methods Aerodynamic design, evaluation and optimization of wind turbine rotor blades Prepare and present technical results in engineering review meetings and communicate key findings, risks, and recommendations to senior management and other decision‑making stakeholders Automation of methods within the framework of in-house design tools Validation of results and method tuning using measurement data YOUR PROFILE: Master’s degree in Mechanical or Aeronautical Engineering, or a closely related field; a PhD is a strong advantage, particularly with specialization in aerodynamics Minimum of 5-8 years of professional experience in aerodynamic design or related engineering fields, ideally within the wind energy sector or similar industries involving complex fluid dynamics applications Strong organizational mindset with demonstrated ability to manage complex engineering projects from concept to execution Proficient in engineering programming, with hands-on experience in languages such as Python, C/C++, and MATLAB, applied to simulation, data analysis, and tool development Fluency in English is required; proficiency in German or Spanish is considered a plus Self-organized and self-driven personality with the ability to handle complex problems Ability to work in a multi-lingual, multi-locational and multicultural team YOUR BENEFITS Nordex offers a range of attractive benefits – here’s a selection of what you can look forward to.
YOUR TASKS: Independently plan, structure, and execute technically complex aerodynamic design projects, including the development of new rotor blades and the detailed analysis of legacy designs Applying advanced fluid dynamics principles, leveraging high-fidelity simulation tools, and integrating multidisciplinary constraints to achieve optimal aerodynamic performance Development and continues improvement of prediction methods and industrialization of research approaches and methods Aerodynamic design, evaluation and optimization of wind turbine rotor blades Prepare and present technical results in engineering review meetings and communicate key findings, risks, and recommendations to senior management and other decision‑making stakeholders Automation of methods within the framework of in-house design tools Validation of results and method tuning using measurement data YOUR PROFILE: Master’s degree in Mechanical or Aeronautical Engineering, or a closely related field; a PhD is a strong advantage, particularly with specialization in aerodynamics Minimum of 5-8 years of professional experience in aerodynamic design or related engineering fields, ideally within the wind energy sector or similar industries involving complex fluid dynamics applications Strong organizational mindset with demonstrated ability to manage complex engineering projects from concept to execution Proficient in engineering programming, with hands-on experience in languages such as Python, C/C++, and MATLAB, applied to simulation, data analysis, and tool development Fluency in English is required; proficiency in German or Spanish is considered a plus Self-organized and self-driven personality with the ability to handle complex problems Ability to work in a multi-lingual, multi-locational and multicultural team YOUR BENEFITS Nordex offers a range of attractive benefits – here’s a selection of what you can look forward to.
Durch die enge Zusammenarbeit mit den Unternehmen können wir dich ideal beim Bewerbungsprozess begleiten und dir darüber hinaus eine individuelle Betreuung anbieten. Aktuell suchen wir für ein Unternehmen am Standort Dortmund einen Senior M365 Engineer (gn). Mit seinen mehreren Tausend Mitarbeitenden ist unser Kunde zuverlässiger Partner im Bereich der Bauchemie... ...und wartet auf dich!
Furthermore, the team is responsible for building an ETL platform used by other stakeholders and the team itself, such as for generating financial reports. What you will do: Development and evaluation of statistical models and algorithms for complex marketing issues Independent analysis of complex data with the aim of identifying new insights and potential for performance optimization Identifying direct and indirect correlations between relevant key figures and deriving recommendations for action Linking and using the content of data from tracking systems and other reporting sources Support in the further development and testing of performance-relevant (attribution) models Initiation and further development of prediction and classification models using machine learning algorithms Who you are: You bring at least two years of hands-on experience in Data Engineering, ideally in an agency, e-commerce, or performance-driven environment You have initial experience with machine learning algorithms and a solid understanding of common data analysis methods such as regression and clustering; knowledge of marketing attribution models is a strong plus You are proficient in SQL and either Python or R (both are a bonus) Experience with Dagster or comparable data orchestration tools is highly appreciated You are naturally curious, enjoy exploring new topics, statistical methods, and emerging technologies, and stay up to date with current technical developments Additional information: **Working model: Due to the upcoming tasks and responsibilities for this position, it is required to work onsite at our headquarters in Hamburg or Berlin on a weekly basis.
Aufstockung des Krankengeldes nach Ablauf der Entgeltfortzahlung, Sachbezugsgutschein i.H.v 50,00 netto p.m. sowie eine betriebliche Altersversorgung, die weit über die gesetzlichen Anforderungen hinausgeht, ein betriebliches Gesundheitsmanagement, unter anderem mit Beratungsangebot doQtor, einen modern ausgestatteten Arbeitsplatz, gesäumt von Grünflächen in Laufweite zur Heilbronner Innenstadt, eingerichtete Pauseninseln mit kostenfreien Kaffeeangeboten sowie eine betriebsübergreifende Kantine mit einem abwechslungsreichen und qualitativ hochwertigen Angebot. Wenn Sie nach einer echten Herausforderung suchen und bereit sind, sich mit Engagement zügig in unsere anspruchsvollen Aufgabengebiete einzuarbeiten, dann passen Sie zu uns. Wir bieten Ihnen ein modernes, angenehmes Arbeitsumfeld und ein leistungsbezogenes Vergütungspaket in einem Unternehmen mit zukunftsfähigen Produkten.
Mit mehr als 3.000 Mitarbeitenden schaffen wir Lösungen, die den Fortschritt in Präanalytik und Life Sciences entscheidend vorantreiben, um die Behandlungsqualität für die Patienten zu steigern und Standards in der Wissenschaft zu setzen. Für unseren Hauptstandort in Nümbrecht-Rommelsdorf suchen wir für den Bereich IT-Applikation zum nächstmöglichen Zeitpunkt einen (m/w/d) Data Engineer / BI Developer Zu den Aufgaben gehören: Konzeption, Entwicklung und Optimierung von Datenarchitekturen und Datenmodellen zur Unterstützung geschäftskritischer Prozesse Implementierung und Pflege von Analysemodellen und Dashboards in Qlik (Sense) Entwicklung und Optimierung von Schnittstellen zwischen SAP-Modulen (z.
•Ability to work successfully in a global team environment •Ability to work in a multi-functional and multi-cultural environment where consensus is paramount •Strong verbal and written communication skills with the ability to articulate complex ideas in easy to understand business terms to senior leaders •Strong collaboration and partnering skills: Ability to accomplish results through others, particularly by establishing relationships with partners •Experience of indirect management – managing by influence as opposed to positional authority. •Experience with technical writing, such as authoring/co-authoring structured technical design WHAT IS THE PLUS POINT(S) •ITIL Foundation Certification •Knowledge in Architecture frameworks like TOGAF will be highly regarded •Object-oriented/object function scripting languages such as Python, Java, C++, etc.
Für unseren Kunden, einen international tätigen Technologiekonzern, suchen wir im Rahmen einer Arbeitnehmerüberlassung zum nächstmöglichen Zeitpunkt einen Senior SAP MDG M Functional Consultant (m/w/d) PLM & Data Governance für den Standort Mühlheim.
•Ability to work successfully in a global team environment •Ability to work in a multi-functional and multi-cultural environment where consensus is paramount •Strong verbal and written communication skills with the ability to articulate complex ideas in easy to understand business terms to senior leaders •Strong collaboration and partnering skills: Ability to accomplish results through others, particularly by establishing relationships with partners •Experience of indirect management – managing by influence as opposed to positional authority. •Experience with technical writing, such as authoring/co-authoring structured technical design WHAT IS THE PLUS POINT(S) •ITIL Foundation Certification •Knowledge in Architecture frameworks like TOGAF will be highly regarded •Object-oriented/object function scripting languages such as Python, Java, C++, etc.
MID – Driving Continuous Transformation Mit der zunehmenden Bedeutung der Datenverarbeitung in der Cloud suchen wir nach einem erfahrenen Data Vault Consultant, der uns bei der Implementierung und Optimierung von Data Vault Lösungen in einer Cloud-Umgebung unterstützt.Du entwirfst und implementierst skalierbare Data Vault 2.1-Modelle.Dabei designst, modellierst und entwickelst Du Datenintegrationslösungen, die auf Best Practices im Bereich Data Vault basieren.Zur Sicherstellung einer reibungslosen Datenpipeline arbeitest Du eng mit den Data Engineering und BI-Teams zusammen.Du beteiligst Dich an Datenqualitätsprüfungen, Validierungen und Governance-Praktiken.Die Analyse von Kundenanforderungen und Übersetzung in skalierbare und robuste Architekturen gehören ebenfalls zu Deinen Aufgaben.Du unterstützt bei der Migration bestehender Lösungen in die Cloud.Du unterstützt die Geschäftsberichterstattung und -analyse durch sauber versionierte Data MartsAußerdem schulst und coachst Du Teams in Data Vault Methodiken und Best Practices in den jeweiligen Cloud Umgebungen.Dein Studium mit dem Schwerpunkt Informatik / Wirtschaftsinformatik, Mathematik, MINT-Fächern oder eine vergleichbare Qualifikation hast Du abgeschlossen.Du konntest bisher mindestens 5 Jahre Erfahrung in der Modellierung und Implementierung von Data Vault Lösungen in Produktionsumgebungen sammeln und bringst fundierte Kenntnisse in der Arbeit mit Cloud-Datenplattformen (z.
Für einen unserer Großkunden suchen wir derzeit mehrere Oracle Engineer, die die nachfolgenden Anforderungen erfüllen: Projektbeschreibung: Unterstützung im Oracle Datenbankumfeld im Rahmen einer Rechenzentrumsmigration.
Assist R&D and Sales by reviewing customer requirements, applicable standards, and associated customer specifications.Translate detailed customer, regulatory, or military specifications to production appropriate detail.Collaborate with Sales team and customers to resolve unclear/conflicting specifications.Communicate directly with customers and suppliers on quality matters and interface during audits and visits.Correlate or investigate variances of internal and customers’ measurements.Evaluate internal rejections and customer returns, investigate root cause and collaborate with applicable departments, facilitating preventative action.Support the Mexico Team on quality and process issues, supplier and customer correspondence, and customer returns.Collaborate with various SCHOTT sites worldwide operating as suppliers or customers to SCHOTT L&I.Study processes and, in conjunction with Metrology Engineer, install appropriate data collection techniques for process/product control.Develop and update Quality processes and procedures.Draft and update documentation, such as control plans, process flows, PFMEAs, routing, inspection plans, etc. Your Profile BS in Engineering, or similar technical discipline.Two (2) years related experience in a manufacturing environment, preferably in the field of optics.Ability to interpret technical drawings and specifications.Working knowledge of GD&T and how to evaluate.Hands on experience with manual measurement tools (calipers, micrometers, indicators, etc.) and electronic measurement equipment (vision systems, optical microscopes, comparators, etc.).Experience in product and process audits.Experience in following / maintaining an ISO 9001, 13485, AS9100 Quality Management System.Strong analytical ability and a disciplined problem-solving approach.
Furthermore, the team is responsible for building an ETL platform used by other stakeholders and the team itself, such as for generating financial reports. What you will do: Development and evaluation of statistical models and algorithms for complex marketing issues Independent analysis of complex data with the aim of identifying new insights and potential for performance optimization Identifying direct and indirect correlations between relevant key figures and deriving recommendations for action Linking and using the content of data from tracking systems and other reporting sources Support in the further development and testing of performance-relevant (attribution) models Initiation and further development of prediction and classification models using machine learning algorithms Who you are: You bring at least seven years of hands-on experience in Data Engineering, ideally in an agency, e-commerce, or performance-driven environment You have initial experience with machine learning algorithms and a solid understanding of common data analysis methods such as regression and clustering; knowledge of marketing attribution models is a strong plus You are proficient in SQL and either Python or R (both are a bonus) Experience with Dagster or comparable data orchestration tools is highly appreciated You are naturally curious, enjoy exploring new topics, statistical methods, and emerging technologies, and stay up to date with current technical developments Benefits Hybrid working Täglich frisches Obst Sportkurse Freier Zutritt zur code.talks Exklusive Mitarbeiter Rabatte Kostenlose Getränke Sprachkurse Kostenloser Laracasts Account Company Events Relocation Unterstützung Mobilitätszuschlag State-of-the-art Technologien Zentrale Lage Flexible Arbeitszeiten Betriebliche Altersvorsorge Weiterbildungs- angebote Hunde erlaubt AY Academy Feedbackkultur Firmenfahrrad YOU ARE THE CORE OF ABOUT YOU.
Software-based evaluation of prototypes on next-generation chip architectures by porting radar software to new Radar-SoCs or re-developing it from scratch for proof-of-concept studies Collaborate closely with project management, radar layout design, requirements engineering, and testing teams within an interdisciplinary development environment. YOUR QUALIFICATIONS University degree in technical discipline such as electrical engineering, physics, computer engineering, or a related field. Proficiency in scripting languages such as MATLAB and Python.
Embrace modern agile software development methodologies and extreme programming practices such as TDD and pair programming. Extensive tech stack: use the right tools for the right tasks without being dogmatic about it. Plenty of room for your ideas and creations, flat hierarchies, and very short decision paths.
Actively participate and complete Health and Safety compliance activities, such as Hazard/Near Miss Reporting and regular attendance/completion of scheduled Toolbox Talks. Liaise with the supply chain, when ordering M&E components for remedial/corrective works.